home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1994 March / Internet Info CD-ROM (Walnut Creek) (March 1994).iso / networking / cisco / fastigrp.doc < prev    next >
Internet Message Format  |  1992-08-07  |  4KB

  1. From: hedrick@cs.rutgers.edu
  2. Message-Id: <9006160302.AA12366@athos.rutgers.edu>
  3. To: cisco@spot.Colorado.EDU
  4. Subject: fast IGRP
  5.  
  6. I thought people might be interested in knowing our experience using
  7. what I call "fast IGRP", i.e. a set of options available under 8.1
  8. that greatly speeds up IGRP's adoption of new routes when something
  9. changes.
  10.  
  11. There are two options that you want to use in order to speed up IGRP's
  12. adjustment: "timers basic" and "no metric holddown".  "Timers basic"
  13. lets you control how often IGRP sends updates.  The default is once
  14. every 90 sec.  In order to allow for dropped packets, IGRP can't time
  15. out expired routes until several minutes have elapsed.  When it
  16. removes a route, it can't adopt a new one for several more minutes due
  17. to holddown.  So using default parameters, it can take up to 9
  18. minutes to adapt to a change.
  19.  
  20. The first thing we do is to speed up the time constants.  We use 15
  21. sec instead of 90 for the basic time constant.  This allows us to
  22. expire routes after 45 sec.  We decrease all the other times
  23. proportionally.
  24.  
  25. Actually, the expiration time turns out not to be as important as you
  26. might expect.  Normally routes don't just expire.  They are killed
  27. because keepalive fails on some interface, or you lose carrier.
  28. Keepalives are normally done every 10 sec, so it takes 30 sec to
  29. detect an interface down that way.  We use keepalive of 4 on T1 lines
  30. where we care about speed of routing adjustment.  This lets us detect
  31. a failure in 12 sec.
  32.  
  33. The other critical parameter change is "no metric holddown".  This
  34. disables holddowns, meaning that after a route has been removed, a new
  35. one will be accepted immediately.  There were good theoretical reasons
  36. for using holddowns.  One can come up with pathological cases where
  37. without holddowns, an old route will never get out of the system.
  38. However 8.1 has a couple of checks to prevent bad routes from
  39. surviving indefinitely.  We have not seen any old routes staying
  40. around.  Note that 8.1 does keep a hop count, specifically to get rid
  41. of old routes that somehow manage to avoid the other tests.  If you do
  42. "show ip protocol", you'll notice an "IGRP maximum hopcount" of 100.
  43. If all else fails, IGRP will go into "count to infinity", and stop at
  44. 100.  Since IGRP uses triggered updates, counting to 100 may not take
  45. too long.  However I recommend setting maximum hopcount to something
  46. smaller (unless you have an enormous network).  It should be a number
  47. at least as large as the "diameter" of your network, i.e. the maximum
  48. number of routers a route might ever have to go through.  If you
  49. exchange IGRP routing with an external network, the diameter must
  50. include your network plus that external network.  When you compute
  51. diameter, take into account what the configuration would look like
  52. if a few lines go down.
  53.  
  54. Here's an example router statement that uses all of these features.
  55. Obviously you'd put your own network number in place of 128.6.0.0.
  56.  
  57.    router igrp 46
  58.    timers basic 15 45 0 60
  59.    network 128.6.0.0
  60.    no metric holddown
  61.    metric maximum-hop 50
  62.  
  63. With this, routing will generally adapt to change within 30 sec,
  64. assuming that keepalive has been set down to 4.
  65.  
  66. The obvious concern about turning up IGRP is that you'll use up your
  67. whole box running routing.  Our network has 75 subnets.  There's a
  68. fairly good amount of redundancy in it.  On a CSC2, IGRP with these
  69. settings takes 1-3% of the CPU for our major gateways (with 4-6
  70. interfaces), and .2% in one gateway that's in a "backwater".  (These
  71. numbers come from looking at the CPU time used, as reported by "show
  72. process", and dividing by the amount of time the box has been up, as
  73. reported by "show harware".)  You'd expect the time to be proportional
  74. to the number of subnets and to the frequency of running IGRP.  I
  75. don't think we'd want to run IGRP quite this fast if we were
  76. circulating the whole Internet routing table.
  77.